- Softwareprogrammeurs van Apple hebben een nieuw AI-systeem geleerd om context en verwijswoorden te begrijpen.
- Het “Reference Resolution As Language Modeling” systeem maakt meer natuurlijke interacties met AI-bots mogelijk.
- De ontwikkelaars van ReaLM zeggen dat het model beter presteert dan GPT-4, als het gaat om het begrijpen van context.
- Lees ook: Smartphonemaker Xiaomi suggereert dat er veel vraag is naar zijn nieuwe elektrische auto, net nadat Apple zijn autoproject heeft gestaakt
Apple’s nieuwe AI-model, ReaLM genaamd, moet het gaan opnemen tegen de producten van OpenAI, de maker van ChatGPT. De maker van de iPhone denkt met een nieuw artificial intelligence-model de interacties tussen mensen en virtuele assistenten zoals Siri intuïtiever maken.
Het ReaLM systeem, dat staat voor “Reference Resolution As Language Modeling,” begrijpt dubbelzinnige beelden en de context van gesprekken beter om zo natuurlijkere interacties tussen mensen en AI-software te creëren.
Dat betekent dat ReaLM beter is in het begrijpen van de context waarin iets gezegd wordt en waar bepaalde uitingen naar verwijzen. Het nieuwe systeem van Apple zou op dat punt beter presteren dan andere grote taalmodellen zoals GPT-4, aldus de Apple-programmeurs die ReaLM hebben ontworpen.
Omdat het een minder complex is dan andere grote taalmodellen, zoals de GPT-serie van OpenAI, noemen de makers ReaLM “een ideale keuze” voor een systeem “dat op een telefoon of laptop kan functioneren zonder in te leveren op de prestaties”.
AI-software heeft vaak moeite met verwijswoorden
Als je spraakassistent Siri van Apple om een lijst met apotheken in jouw directe vraagt, kan het systeem dat oplepelen. Vervolgens kan je Siri met ondersteuning van ReaLM vragen een specifieke apotheek te bellen zonder de naam te noem. Je zegt dan bijvoorbeeld "Bel die op de Stationsweg" of "Bel de onderste".
Met ReaLM kan Siri de context die nodig is om zo'n taak uit te voeren, beter ontcijferen dan GPT-4 dat kan, claimen de programmeurs van Apple.
"Menselijke spraak bevat meestal dubbelzinnige verwijzingen, zoals 'ze' of 'dat', waarvan de betekenis duidelijk is voor andere mensen binnen een bepaalde context", leggen de AI-specialisten van Apple uit. "In staat zijn om context te begrijpen, inclusief dit soort verwijzingen, is essentieel voor een AI-model dat erop gericht is om de gebruiker op een natuurlijke manier zijn wensen kenbaar te laten maken, of om er een gesprek mee te voeren."
Het ReaLM systeem kan tekst in afbeeldingen lezen, iets dat volgens de ontwikkelaars gebruikt kan worden om informatie zoals telefoonnummers of recepten uit afbeeldingen op een pagina te halen.
OpenAI's GPT-3.5 accepteert alleen tekstinvoer en GPT-4, dat ook afbeeldingen kan contextualiseren, is vooral getraind met echte afbeeldingen en niet op schermafbeeldingen. Dit belemmert volgens de AI-specialisten van Apple de praktische prestaties van GPT-4 en maakt ReaLM de betere optie voor integratie in smartphones.
"Apple is lang gezien als een achterblijver ten opzichte van Microsoft, Google en Amazon in het ontwikkelen van conversationele AI", schrijft The Information. "De iPhone-maker heeft de reputatie een voorzichtige ontwikkelaar van nieuwe producten te zijn - een tactiek die goed heeft gewerkt om het vertrouwen van consumenten te winnen, maar die misschien problemen oplevert in de AI-race."
Met het uitlichten van de mogelijkheden van ReaLM lijkt het erop dat Apple zich klaarmaakt om een serieuze kandidaat te worden in de techrace rond kunstmatige intelligentie.
Het blijft onduidelijk wanneer en of ReaLM zal worden geïmplementeerd in Siri of andere Apple producten, maar CEO Tim Cook zei tijdens een recente toelichting op de financiële resultaten dat het bedrijf zich voorbereidt om "later dit jaar details te delen over ons lopende werk op het gebied van AI."